首页> 外文OA文献 >Learning Distributed Representations of Sentences from Unlabelled Data
【2h】

Learning Distributed Representations of Sentences from Unlabelled Data

机译:从未标记数据中学习句子的分布式表示

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Unsupervised methods for learning distributed representations of words areubiquitous in today's NLP research, but far less is known about the best waysto learn distributed phrase or sentence representations from unlabelled data.This paper is a systematic comparison of models that learn suchrepresentations. We find that the optimal approach depends critically on theintended application. Deeper, more complex models are preferable forrepresentations to be used in supervised systems, but shallow log-linear modelswork best for building representation spaces that can be decoded with simplespatial distance metrics. We also propose two new unsupervisedrepresentation-learning objectives designed to optimise the trade-off betweentraining time, domain portability and performance.
机译:在当今的NLP研究中,无监督的学习单词的分布式表示的方法很普遍,但是对于从未标记的数据中学习分布式短语或句子表示的最佳方法知之甚少。本文是对学习此类表示的模型的系统比较。我们发现最佳方法关键取决于预期的应用。对于在监督系统中使用的表示,更深,更复杂的模型更可取,但是浅对数线性模型最适合于构建可以用简单空间距离度量进行解码的表示空间。我们还提出了两个新的无监督表示学习目标,旨在优化训练时间,域可移植性和性能之间的权衡。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号